Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.75 --sparsity_type 3:4 --save --min_col 1
Last Line: wikitext perplexity 1921.1046142578125
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.75 --sparsity_type 3:4 --save --min_col 2
Last Line: wikitext perplexity 1579.8792724609375
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.75 --sparsity_type 3:4 --save --min_col 3
Last Line: wikitext perplexity 1503.1578369140625
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.75 --sparsity_type 3:4 --save --min_col 4
Last Line: wikitext perplexity 1935.6505126953125
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.75 --sparsity_type 3:4 --save --min_col 5
Last Line: wikitext perplexity 2019.002197265625
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.75 --sparsity_type 3:4 --save --min_col 6
Last Line: wikitext perplexity 1416.2249755859375
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.75 --sparsity_type 3:4 --save --min_col 7
Last Line: wikitext perplexity 1598.5023193359375
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.75 --sparsity_type 3:4 --save --min_col 8
Last Line: wikitext perplexity 1486.70703125
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.75 --sparsity_type 3:4 --save --min_col 9
Last Line: wikitext perplexity 1961.4476318359375
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2,3 python main.py --model meta-llama/Llama-2-13b-hf --prune_method ria_ours --sparsity_ratio 0.75 --sparsity_type 3:4 --save --min_col 10
Last Line: wikitext perplexity 1701.616455078125
---------------------------
